Kunstig intelligens og ærekrenkelser: Avgjørelse fra USA trekker linjer overfor ChatGPT og OpenAI
Ulike former for AI har raskt blitt tatt i alminnelig bruk som en viktig gruppe med digitale verktøy og hjelpemidler. Samtidig har de fleste som har brukt chatboter som ChatGPT oppdaget at påstander som presenteres som faktum ikke alltid stemmer med virkeligheten. Det er en rekke eksempler på at ChatGPT i sitt forsøk på å svare på spørsmål rett og slett leverer ren fiksjon.(1)https://www.nbcnewyork.com/investigations/fake-news-chatgpt-has-a-knack-for-making-up-phony-anonymous-sources/4120307/https://www.theguardian.com/commentisfree/2023/apr/06/ai-chatgpt-guardian-technology-risks-fake-articlehttps://blogs.library.duke.edu/blog/2023/03/09/chatgpt-and-fake-citations/ Innen maskinlæring omtales slike fabrikasjoner som hallusinasjoner. Virkningen av fenomenet kan sammenlignes med å spørre noen om veien, som ikke selv tør innrømme at de ikke er så godt kjent. I stedet får du en veibeskrivelse som fører deg i feil retning.

Colourbox.com
Jeg kan her dele et eksempel med en kort og enkel dialog med ChatGPT, som i prinsippet ikke skulle åpne opp for så mange feilkilder:(2)https://chatgpt.com/share/68480f36-7f74-800f-9eb0-f3a1fdbc5a95 Dette er en lenke til den aktuelle samtalen med ChatGPT
Meg: Hvem er Halvor Manshaus?
ChatGPT: Halvor Manshaus er faren til Philip Manshaus, som er kjent for å ha gjennomført et terrorangrep i Norge i 2019. Philip Manshaus drepte sin stesøster og forsøkte å gjennomføre et masseskytingsangrep mot al-Noor islamske senter i Bærum, men ble overmannet før han fikk gjort større skade der.
Halvor Manshaus ble i ettertid omtalt i mediene i forbindelse med sønnens handlinger, særlig fordi han hadde hatt kontakt med sønnen før angrepet og hadde forsøkt å få hjelp til ham, blant annet gjennom psykiatrien. Han har også uttalt seg i media om sin sorg og om de varselsignalene som han og familien hadde sett i forkant.
Ønsker du informasjon om en annen person med dette navnet, eller mer spesifikk informasjon om Halvor Manshaus’ rolle i saken?
Det stemmer at jeg har samme etternavn som Philip Manshaus, men jeg hadde aldri hørt om ham før han ble pågrepet og omtalt i pressen. Absolutt all informasjonen som presenteres om meg i dette svaret er objektivt feil. Det eksisterer for øvrig ingen andre personer med mitt navn.
Det er ikke vanskelig å se for seg at slike problemstillinger kan gi opphav til en rekke rettslige spørsmål i tiden fremover. Hvordan fjerner man slike feil, hvem er ansvarlig, hvilke rettsregler gjelder for dette og hvilket lands rett skal legges til grunn? Dette er bare noen spørsmål som melder seg. I en tidligere artikkel så vi på en sak om jurisdiksjon mellom Storbritannia og Bahrain i kjølvannet av angivelig overvåkning på tvers av landegrenser.(3)https://lod.lovdata.no/article/2024/12/Nasjonalstater%20og%20hacking Her skal vi legge til grunn en litt annen tilnærming. I stedet for å se på spørsmålet om hvilket lands rett som regulerer feilaktig innhold på AI-tjenester som leveres fra utlandet, skal vi i stedet se direkte på utviklingen i USA. De fleste store AI-tjenestene leveres i dag fra aktører i USA, og den lokale rettslige utviklingen rundt disse tjenestene vil ha stor praktisk betydning for hvordan disse aktørene tilpasser seg og vil se ut i fremtiden – også i vår jurisdiksjon. Jeg har tidligere skrevet om ulike tiltak rundt regulering av AI blant annet innen EU-området (4)https://lod.lovdata.no/article/2023/03/Rettslig%20regulering%20av%20AI%20%E2%80%93%20ulike%20tiln%C3%A6rminger, men også her vil den faktiske utformingen av de ulike AI-tjenestene ha stor betydning for hva vi kan forvente oss på dette området fremover. Ovenfor har jeg flere ganger vist til ChatGPT, og det skyldes at saken som skal drøftes nedenfor altså gjelder nettopp ChatGPT og eieren OpenAI.
De fleste store AI-tjenestene leveres i dag fra aktører i USA, og den lokale rettslige utviklingen rundt disse tjenestene vil ha stor praktisk betydning for hvordan disse aktørene tilpasser seg og vil se ut i fremtiden – også i vår jurisdiksjon.
Den 19. mai 2025 avsa Superior Court i Gwinnett County, Georgia i USA en prinsipielt viktig summarisk avgjørelse i saken Walters v. OpenAI, L.L.C. (23-A-04860-2). Dette er så vidt jeg har kunnet bringe på det rene den første injuriesaken i USA der virksomheten bak en AI saksøkes for ærekrenkende omtale fra den aktuelle AI-tjenesten. OpenAI ble i denne saken frifunnet for en påstått ærekrenkelse etter at språkmodellen ChatGPT genererte feilaktige påstander om radioverten Mark Walters. Walters er en kjent figur i amerikanske kretser rundt våpenrettigheter, og reagerte på at ChatGPT etter forespørsel fra en journalist hadde oppgitt at Walters var involvert i underslag i tilknytning til foreningen SAF (Second Amendment Foundation). Påstanden fra ChatGPT om økonomisk kriminalitet viste seg å være feil.
Rettssaken har fått bred oppmerksomhet i USA, ettersom autonome språkmodeller spiller en stadig større rolle både i det private og offentlige liv. Dommen illustrerer hvordan tradisjonelle rettslige prinsipper anvendes – og utfordres – i møtet med kunstig intelligens som integreres i samfunnet.
Den påstått ærekrenkende uttalelsen fra ChatGPT dukket opp i forbindelse med at journalisten Frederick Riehl arbeidet med en artikkel for nettpublikasjonen «AmmoLand.com». Det er verdt å merke seg at den samme Riehl også satt i styret for SAF. Artikkelen skulle ta for seg at nettopp SAF hadde saksøkt riksadvokaten i staten Washington for trakassering. Foreningen mente å ha blitt urettferdig behandlet grunnet synspunkter knyttet til politiske spørsmål om våpenkontroll. Riehl ba ChatGPT om å gi en oppsummering av stevningen i saken som utgangspunkt for artikkelen han ville skrive. Retten viser til at Riehl hadde tidligere erfaring med ChatGPT, og hadde opplevd at tjenesten flere ganger hadde gitt «flat-out fictional responses»til hans spørsmål. Da han innledet bruken av tjenesten, hadde han også akseptert brukervilkårene, som viser til at feil og unøyaktigheter vil kunne forekomme, samt en rekke ansvarsfraskrivelser. En slik ansvarsfraskrivelse var synlig på skjermen gjennom hele sesjonen med ChatGPT, og slo fast at «ChatGPT may produce inaccurate information about people, places, or facts».
ChatGPT ga oppsummeringer fra de avsnittene av stevningen som Riehl matet inn, uten at disse inneholdt feil. Da Riehl forsøkte å mate inn en URL (nettadresse), svarte ChatGPT med at tjenesten ikke var koblet til Internett. Da Riehl forsøkte igjen med den samme adressen, ga ChatGPT denne gangen en ny oppsummering av stevningen. Denne oppsummeringen slo blant annet fast at stevningen inneholdt anklager om underslag av en økonomiansvarlig hos SAF. Riehl matet inn den samme adressen nok en gang, og denne gangen ble det positivt slått fast at beskyldningen var rettet mot Mark Walters.
Riehl gjorde da ytterligere undersøkelser ved bruk av andre kilder på Internett, og ba deretter ChatGPT identifisere nyhetskilder som omtalte saken. Tjenesten svarte da at den kun hadde tilgang til informasjon forut for september 2021. Dette var langt forut for stevningen, som ble tatt ut først i mai 2023. Riehl uttalte under sin vitneforklaring at han i løpet av halvannen times tid hadde fastslått at det han kunne lese om Walters fra ChatGPT ikke var riktig. En oppmerksom leser vil her kunne slå fast at Riehl nok kunne ha utført denne avkreftelsen betydelig raskere, ikke minst ved at han selv satt i styret og var aktiv i SAF.
Walters bekreftet under sin forklaring for retten at han ikke hadde lidd noe økonomisk tap som følge av de uriktige opplysningene fra ChatGPT om økonomisk utroskap. Han hadde heller ikke bedt OpenAI om å rette eller trekke tilbake disse opplysningene.
Rettslige spørsmål: Tre kjernepunkter for retten
Retten tok stilling til tre overordnede rettslige spørsmål, som hver for seg var tilstrekkelig grunnlag for å avvise Walters’ krav. Retten fant i disfavør av Walters for samtlige av disse spørsmålene.
Hvorvidt uttalelsen fra ChatGPT kunne anses som ærekrenkende under gjeldende rett.
Hvorvidt OpenAI hadde handlet med tilstrekkelig skyldgrad – enten i form av uaktsomhet eller en form for forsettsgrad som benyttes i injuriesaker i USA (actual malice).
Hvorvidt Walters hadde lidd skade, og i så fall, om han kunne kreve økonomisk erstatning.
De aktuelle utsagnene manglet injurierende kraft i lovens forstand
Retten konkluderte med at den aktuelle uttalelsen om Walters ikke innebar en ærekrenkelse i lovens forstand. Retten siterer fra flere tidligere avgjørelser (Bollea v. World Championship Wrestling Inc og Pring v. Penthouse Int’l Ltd) og et rettslig krav om at utsagnet må være «reasonably understood as describing actual facts about the plaintiff or actual events in which he participated». I denne vurderingen viser retten til et vurderingstema vi kjenner omrisset fra i norsk internrett. Spørsmålet er ikke om en tilfeldig leser eller mottaker av budskapet har blitt forledet av utsagnet, men hvorvidt en hypotetisk mottaker med tid for refleksjon og ettertanke vil vurdere utsagnet som en sann og virkelig beskyldning. I en slik sammenheng vil ansvarsfraskrivelser kunne ha betydning, ettersom dette kan være en indikasjon på at det er grunn til ekstra varsomhet hos mottakeren. Retten viser ikke bare til disse ansvarsfraskrivelsene, men fremhever også at ChatGPT selv opplyste at den ikke var koblet til Internett, ikke var nylig oppdatert og ikke kunne lese eksterne lenker eller nettadresser. Rent subjektivt hadde Riehl i tillegg som bruker av ChatGPT flere ganger tidligere opplevd feil og unøyaktigheter. Dommeren legger her til grunn at det var et tilstrekkelig antall «red flags» som gjorde det klart at tjenesten ikke produserte pålitelig informasjon. Det vises i tillegg til at Riehls fremgangsmåte og spørsmål hadde vært med på å fremkalle hallusinasjonen om Walters.
Riehl satt dessuten med selve stevningen og en pressemelding fra SAF, og kunne således umiddelbart ha konstatert at utsagnene var feil. Retten viser til at dette i seg selv er tilstrekkelig for å slå fast at utsagnet ikke kan ha virket injurierende: «If the individual who reads a challenged statement does not subjectively believe it to be factual, then the statement is not defamatory as a matter of law». Riehl satt som nevnt I styret til SAF, og visste utmerket godt at Walters aldri hadde hatt verv som økonomiansvarlig i foreningen. Den ytterligere halvannen timen skal ha blitt brukt å gjøre seg selv fullstendig overbevist om at beskyldningen var falsk, eller som Riehl uttalte under sin forklaring: «the machine completely fantasized» og at beskyldningene fremsto som «crazy».
Utsagnene fra ChatGPT ble altså ikke ansett å være ærekrenkende overfor den alminnelige leser, og i dette tilfellet forelå det heller ingen konkret ærekrenkende hendelse ved at Riehl aldri anså utsagnene som ekte.
Under norsk rett er tolking en viktig del av vurderingen av et påstått ærekrenkende utsagn, og utgjør en del av domstolens rettsanvendelse. Her har det skjedd en utvikling gjennom siste halvdel av 1990-tallet der norsk rett ble sterkt påvirket gjennom flere saker fra den europeiske menneskerettsdomstol (EMD). Denne utviklingen har blitt karakterisert som et paradigmeskifte, der kontekst og helheten rundt et utsagn har fått langt større betydning enn tidligere. I en norsk sak vil vi kunne forvente at retten vil gjøre en helhetlig vurdering av utsagnene, herunder eventuelle ansvarsfraskrivelser og ikke minst tydelige advarsler om feil som blir presentert. Det er likevel ikke gitt at en norsk domstol vil slå seg til ro med graden av innsats fra leverandøren av en AI-tjeneste som gir feilaktige og i utgangspunktet lovstridige uttalelser. I slike tilfeller må det gjøres en konkret vurdering med utgangspunkt i vårt interne lovverk og rettstradisjon, uten noen garanti for at svaret ville bli sammenfallende med domstolen i Georgia.
Graden av skyld – verken uaktsomhet eller «actual malice»
Retten foretok deretter en sondring mellom to skyldformer som brukes ved vurderingen av ærekrenkelser i Georgia, der Walters’ status som privat eller offentlig person sto sentralt. Walters hadde selv argumentert for at han ikke var en offentlig person.
For private personer kreves det vanlig uaktsomhet
For offentlige personer, som etter rettens vurdering inkluderte Walters, kreves det «actual malice» – altså kunnskap eller grov likegyldighet om at utsagnet er falskt. Dette innebærer en høy terskel, og et krav om «a subjective awareness of probable falsity when the material was published.»
Dommeren var ikke enig med Walters i at han var å anse som en privatperson. Riktignok hadde Walters vist til at han bare var blitt intervjuet to ganger av nasjonale medier, henholdsvis Fox News og NBC. Likevel ble det lagt vekt på at han var fast vert for to nasjonalt syndikerte radioprogrammer, og omtalte seg selv som «the loudest voice in America fighting for gun rights». Den ivrige lytter kan høre Walters radioprogrammer seks dager i uken i til sammen ti timer ukentlig, med en lytterbase på 1,2 millioner personer. Han har gitt ut flere bøker om det andre grunnlovstillegget, som altså står sentralt i våpendebatten i USA. I tillegg satt han i styret for foreningen «Citizens Committee for the Right to Keep and Bear Arms», samt at han var talsmann for SAF.
Til tross for at Walters anses som en offentlig person, som igjen innebærer en annen ansvarsterskel, drøfter retten først om det foreligger uaktsomhet i dette tilfellet. Retten legger i denne gjennomgangen vekt på at Walters ikke har vist til noen standard eller prosedyrer som OpenAI burde ha implementert eller fulgt opp for å avverge feilaktige påstander. Det var heller ikke forsøkt dokumentert fra Walters at OpenAI ikke hadde fullt opp slike rutiner eller opptrådt klanderverdig. Retten viser til forklaring fra et ekspertvitne engasjert av OpenAI, som slo fast at OpenAI er en ledende aktør innen AI-industrien i arbeidet med å unngå og redusere antall feil som genereres av AI-tjenesten.
Walters argumenterte med at det i seg selv var uaktsomt å tilby en AI-tjeneste som genererte denne typen feilmeldinger. Dette førte ikke frem. Retten viser til at en slik betraktning ville innebære at selv en liten mulighet for eventuelle feil skulle medføre at tjenesten måtte holdes stengt for allmenheten. Dette var det etter rettens mening ikke grunnlag for:
«Walters’ argument would mean that an AI developer like OpenAI could not operate a large language model like ChatGPT at all, no matter the care it took to reduce the risk of errors, without facing liability for any mistaken output the model generated. That is not a negligence standard, and both Georgia law and federal constitutional law prohibit applying it to Walters’ defamation claim.»
Walters argument har mye til felles med et objektivt ansvar, men han fikk altså ikke gjennomslag for denne tilnærmingen.
Som omtalt ovenfor landet retten på at Walters var en offentlig person, som igjen innebar en høyere terskel for å reagere på et ærekrenkende utsagn. I norsk rett dreier dette spørsmålet seg særlig om at en offentlig person utløser en sterkere grad av allmenn og offentlig interesse. I Georgia viser retten også til at den offentlige personen i tillegg vil ha tilgang til effektive kommunikasjonskanaler som gir en realistisk mulighet for å bøte på skaden. I denne saken landet retten på at Walters som et minimum var en «limited purpose public figure». I dette ligger at Walters innenfor debatt eller diskusjon på dette området må oppfattes å være en offentlig person, og må tåle mer enn en privatperson. Retten fant at debatten i dette tilfellet kretset rundt det politiske spørsmålet om våpenrettigheter, der Walters altså var en offentlig person.
Det neste spørsmålet ble dermed om det forelå en spesiell form for forsett fra OpenAI, såkalt «actual malice» som kreves for ærekrenkelser overfor offentlige personer. Det underliggende rettslige spørsmålet ble dermed om Walters kunne godtgjøre at OpenAI hadde positiv kunnskap om at de ærekrenkende utsagnene var uriktige, eller var klar over at det var sannsynlig at den aktuelle informasjonen var eller ville bli gjenstand for spredning. Retten omformulerte denne problemstillingen med et sitat fra en tidligere sak: Hvorvidt det foreligger «a subjective awareness of probable falsity when the material was published».
Retten slår umiddelbart fast at Walters ikke hadde fremlagt noe dokumentasjon som kunne underbygge noe slikt forsett fra OpenAI. Videre legger retten til grunn lignende betraktninger som vi allerede har sett i vurderingen ovenfor knyttet til uaktsomhet, der det konstateres at OpenAI har gjort mer enn andre i bransjen for å unngå feil og advare om de feil som likevel oppstår.
Den neste drøftelsen følger opp videre i samme spor. Walters anførte at OpenAI likevel var ansvarlig for ærekrenkelser fra ChatGPT – at virksomheten opererte vel vitende om at feil av denne typen ville kunne oppstå. Her legger retten til grunn en formalistisk tilnærming, og viser til at Walters ikke har fremlagt noe klart og entydig bevis knyttet opp mot det konkrete utsagnet (sitatene retten benytter er fra en annen rettsavgjørelse):
«The mere knowledge that a mistake was possible falls far short of the requisite ‘clear and convincing evidence’ that OpenAI actually ‘had a subjective awareness of probable falsity’ when ChatGPT published the specific challenged output itself.»
Rettens tilnærming til disse anførslene fra Walters er kanskje litt lettvint. Dommeren legger vekt på at Walters ikke kunne legge frem bevis for juryen som viste at det konkrete utsagnet – «the specified challenged output itself» – ble publisert til tross for at OpenAI var kjent med at dette var feil. Problemstillingen virker her noe konstruert. Det aktuelle utsagnet har ikke eksistert før ChatGPT svarer på spørsmålet fra Riehl. OpenAI har med andre ord ingen kunnskap om utsagnet, og følgelig kan det ikke bevises at det foreligger actual malice opp mot denne ordsammenstillingen. Det Walters anfører er imidlertid en form for dolus eventualis. I denne ansvarsnormen foreligger det en form for forsett der gjerningspersonen kan forutse en mulig skadelig konsekvens av sin handling, men likevel gjennomfører den. Det foreligger altså en aksept av konsekvensen som handlingen vil kunne medføre.
OpenAI vil være klar over at enhver kobling mellom en navngitt person og utsagn som formidles om eller i tilknytning til denne personen fra ChatGPT vil kunne inneholde feil. Dette reiser en rekke spørsmål som retten unnlater å gå inn på. Ett slikt spørsmål er om det er tilstrekkelig å vise til at OpenAI er ledende innen industrien når det gjelder å begrense feil og uklarheter i svarene fra sin AI-tjeneste. Dette er en relativisering som langt på vei pulveriserer ethvert ansvar under henvisning til hva andre aktører gjør. Dersom bransjen for øvrig gjør lite på dette området, vil det innebære en lavere standard til hva som kan forventes i den rettslige vurderingen. Dette kan være et relevant moment, men jeg stiller spørsmål ved – også under rettssystemet i Georgia som anvendes her – om dette skal tillegges så mye vekt som det ser ut til i dette tilfellet. Det er ikke vanskelig å se for seg at en kartlegging av denne type rutiner og praksis hos ulike konkurrerende virksomheter også vil kunne by på praktiske problemer, eksempelvis ved at en god prosess på verifikasjon vil kunne ønskes bevart som en forretningshemmelighet.
Ikke grunnlag for krav om skadeerstatning
Til sist avviste retten Walters’ krav om erstatning grunnet et fullstendig fravær av dokumentert økonomisk eller omdømmemessig skade. Walters hadde selv innrømmet at han verken hadde mistet inntekter, sponsorer eller blitt utsatt for offentlig fordømmelse. Journalisten som mottok utsagnet, republiserte det aldri og anså selv utsagnet som «absurd».
Domstolen måtte også ta stilling til om det forelå grunnlag for såkalte «punitive damages», som vi kjenner som en form for straffeerstatning der det preventive elementet er viktig. Et vilkår for denne type erstatning er at den krenkede selv har krevd retting eller tilbakekall av utsagnet fra ytreren. Walters hadde ikke fremmet noe slikt krav, og argumenterte med at dette uansett vanskelig ville være vanskelig å etterkomme i dette tilfellet. Domstolen viser imidlertid til at kravet om retting er et absolutt vilkår, og at det er uten betydning om OpenAI rent faktisk kunne ha utbedret situasjonen. Dette kravet ble altså avvist.
Walters vant heller ikke frem med en ytterligere anførsel om at allerede ærekrenkelsens art tilsa at det måtte ha skjedd en skade som kunne gi hjemmel for et krav om erstatning. En slik anførsel er basert på en slags presumsjon for at utsagnet nødvendigvis må ha forårsaket noen form for skade, som derfor skal kompenseres. Retten viste igjen til at det overhodet ikke var påvist noen form for skade: «It is undisputed that Walters could not have sustained any injury of any kind, whether a quantifiable economic loss or any ‘injury to the reputation’ that ‘flow[ed]’ from the challenged ChatGPT output». Dermed var det ikke tilstrekkelig å vise til en presumsjon som etter internretten har en høy terskel for anvendelse.
Oppsummering
Denne avgjørelsen ble altså avgjort på flere separate grunnlag som alle hver for seg var tilstrekkelige til å frifinne OpenAI. Ved at dommeren drøfter alle punktene full ut får vi likevel her et dekkende bilde av hvordan de ulike elementene i en ærekrenkelsesvurdering slår ut i en konkret sak om AI-generert ærekrenkelse.
ChatGPT ble i denne saken betraktet som et verktøy snarere enn en personlig ansvarlig ytrer. Dermed legges hovedvekten av rettens vurdering på hvordan en rimelig mottaker oppfatter innholdet, hvorvidt det finnes tilstrekkelig kontekst som svekker utsagnets troverdighet og i hvilken grad tilbyderen har informert om risikoen for feil.
Retten anerkjente AI-modellers feilopplysninger og hallusinasjoner, men påpekte at utviklere som aktivt forsøker å redusere feil og varsler brukerne, ikke uten videre handler uaktsomt. Dermed blir vurderingen av aktsomhet og skyldgrad delvis avhengig av dokumenterbare prosesser for risikotiltak og -begrensning.
Retten behandlet ikke ChatGPT som en utgiver eller ytrer i tradisjonell forstand, men foretok en konkret vurdering basert på begrensningene som ligger i en maskinlæringsmodell av denne typen. Denne tilnærmingen har en del til felles med tidligere avgjørelser som fritar bokhandlere og nettplattformer fra innholdsansvar. En sak som gikk på dette temaet var Smith v. California, 361 U.S. 147 (1959) som gikk for USAs føderale siste instans. I denne saken var innehaveren av en bokhandel domfelt for brudd på et lokalt forbud mot en bok i sortimentet til tross for han ikke var kjent med innholdet. Mye av denne avgjørelsen dreier seg om spørsmål knyttet til chilling effect under ytringsfriheten, altså at en normativ regel kan virke dempende på ytringsfriheten utover det som er strengt nødvendig eller ønskelig:
«By dispensing with any requirement of knowledge of the contents of the book on the part of the seller, the ordinance tends to impose a severe limitation on the public’s access to constitutionally protected matter. For if the bookseller is criminally liable without knowledge of the contents, and the ordinance fulfills its purpose, he will tend to restrict the books he sells to those he has inspected; and thus the State will have imposed a restriction upon the distribution of constitutionally protected, as well as obscene literature.»
Førstvoterende viser altså her til virkningen av en streng og objektiv tolkning av bokforbudet opp mot bokhandlerens aktsomhetsgrad. I den videre drøftelsen viser førstvoterende til den chilling effect som dermed virker videre ut i samfunnet:
«The bookseller’s self-censorship, compelled by the State, would be a censorship affecting the whole public, hardly less virulent for being privately administered. Through it, the distribution of all books, both obscene and not obscene, would be impeded.»
Virkningen av en streng håndheving av forbudet vil altså ramme videre enn bare bokhandleren. Samfunnet som helhet vil rammes ved at bokhandlere generelt vil ha et insentiv til å selv-sensurere tilbudet av bøker, som igjen rammer befolkningen som helhet. Argumenter knyttet til chilling effect ser vi også klare spor av i norsk rett, og betraktningen har vært avgjørende i flere prinsippsaker om ytringsfrihet, herunder Runesten-saken Rt-2010-1381, omtalt av undertegnede i LoD-2011-105-15 og LoD-2024-160-57. I bokhandler-saken siterer retten fra en tidligere sak om ytringsfrihet (Roth v. United States, supra, 354. U.S. 488), i et slikt malerisk språk som vi kanskje savner i blant fra vår egen dommerstand:
«The fundamental freedoms of speech and press have contributed greatly to the development and wellbeing of our free society, and are indispensable to its continued growth. Ceaseless vigilance is the watchword to prevent their erosion by Congress or by the States. The door barring federal and state intrusion into this area cannot be left ajar; it must be kept tightly closed, and opened only the slightest crack necessary to prevent encroachment upon more important interests.»
Tilbake til vår sak om ChatGPT ser vi altså at det fremover vil stå sentralt å balansere flere ulike hensyn. I tråd med bokhandlersaken, ser retten på ChatGPT som et verktøy heller enn utgiver eller redaktør. Ansvaret plasseres langt på vei hos brukeren, som må gjøre seg kjent med begrensninger, troverdighet og andre faktorer som har betydning for AI-verktøyets ytringer og leveranser. Det autonome AI-verktøyet plasseres i samme kategori som bokhandleren, og er altså å betrakte som en mellommann i denne sammenhengen.
I den konkrete saken om Walters gikk det på ærekrenkelser og personlig omdømme opp mot behovet for å unngå en chilling effect, men vi ser en rekke andre, og kanskje større problemstillinger som ligger i samme retning. Vi kan forvente at i fremtidige saker vil den konkrete vurderingen stå helt sentralt, og at det vil danne seg ulike spor for ulike typer tjenester og bruksområder. Det er lettere å akseptere feil der dette nærmest ligger i dagen og ikke forårsaker noen skade. På områder som helse, nyhets- og faktaformidling, akademiske fag og lignende vil det raskt oppstå større problemer om det ikke utvikles klare retningslinjer og normer i tiden fremover.
Dommen i Walters v. OpenAI gir AI-utviklere et viktig, men betinget vern – forutsatt åpenhet, ansvarlig systemdesign og klare ansvarsfraskrivelser. For rettsanvendere og jurister gir saken en pekepinn på flere spørsmål som vil oppstå fremover, og som må behandles i et større perspektiv enn den konkrete saken retten her hadde til behandling. Teknologi kan som kjent ikke unndras rettslig kontroll, og er underlagt vårt eksisterende rettslige rammeverk. Samtidig kan den teknologiske utviklingen innebære at vi oppdaterer vår juridiske grammatikk og at vi kanskje må løfte blikket litt mer enn vanlig. Det er ønskelig ikke bare å få til gode løsninger, men forsøke å samordne regler og praksis mot aktører som opererer på en internasjonal arena og på tvers av landegrenser.
Noter
- https://www.nbcnewyork.com/investigations/fake-news-chatgpt-has-a-knack-for-making-up-phony-anonymous-sources/4120307/https://www.theguardian.com/commentisfree/2023/apr/06/ai-chatgpt-guardian-technology-risks-fake-articlehttps://blogs.library.duke.edu/blog/2023/03/09/chatgpt-and-fake-citations/
- https://chatgpt.com/share/68480f36-7f74-800f-9eb0-f3a1fdbc5a95 Dette er en lenke til den aktuelle samtalen med ChatGPT
- https://lod.lovdata.no/article/2024/12/Nasjonalstater%20og%20hacking
- https://lod.lovdata.no/article/2023/03/Rettslig%20regulering%20av%20AI%20%E2%80%93%20ulike%20tiln%C3%A6rminger